فهرست مطالب

فصلنامه مدل سازی پیشرفته ریاضی
سال یازدهم شماره 3 (پاییز 1400)

  • تاریخ انتشار: 1400/08/05
  • تعداد عناوین: 12
|
  • هدیه افتخاری مودی، هادی علیزاده نوقابی*، محمد خراشادی زاده صفحات 400-414

    در این مقاله ابتدا به برخی از تعمیم های اطلاع کولبک-لیبلر و خواص آن ها پرداخته می شود. سپسشرایط گشتاوری برای توزیع ماکسیمم آنتروپی مانده ی تجمعی بررسی و رابطه ی بین اطلاع کولبک-لیبلر مانده ی تجمعیمطالعه می شود. همچنین در مورد روش های برآورد پارامتر مقیاس توزیع (CRE) و آنتروپی مانده ی تجمعی (CRKL) رایلی بحث شده و دو روش برآورد آن ارایه می شود. در ادامه اطلاع کولبک-لیبلر مانده ی تجمعی را به عنوان یک آمارهآزمون نیکویی برازش به کار برده و سپس مقادیر بحرانی و توان آزمون های پیشنهادی محاسبه و با توان سایر آزمون هامقایسه می شود. در پایان، آزمون ها برای یک مجموعه داده ی واقعی به کار گرفته می شود.

    کلیدواژگان: آزمون نیکویی برازش، آنتروپی مانده ی تجمعی، اطلاع کولبک-لیبلر، اطلاع کولبک-لیبلر مانده ی تجمعی، توان آزمون، شبیه سازی مونت کارلو
  • پروانه آتش پیکر*، علی حاجی بدلی صفحات 415-432

    در این مقاله، گروه های لی لورنتسی سه بعدی به عنوان خمینه های همگن از بعد سه را بر اساس شرط سوپر-اینشتینی طبقه بندی می کنیم. برای این منظور ابتدا طبقه بندی کاملی از گروه های لی لورنتسی سه بعدی اینشتینی را ارایه داده، سپس براساس طبقه بندی بدست آمده شرط سوپر-اینشتینی را روی این گروه های لی مطالعه می کنیم. در ادامه به منظور بررسی برخی توصیف های هندسی از طبقه بندی ارایه شده شرایط اینشتینی گون یعنی شرایط کیلینگ و کودازی را روی گروه های لی لورنتسی سه بعدی سوپر-اینشتینی بررسی می کنیم. در انتها، خمینه های لورنتسی سه بعدی همگن انحنایی مرتبه یک سوپر-اینشتینی را به عنوان مثال های غیرهمگن ارایه می دهیم.

    کلیدواژگان: گروه لی، سوپر-اینشتینی، کودازی، کیلینگ، همگن انحنایی مرتبه یک
  • محسن محمدزاده*، سمیرا سعادتی صفحات 433-445
    در تحلیل داده های فضایی-زمانی، متداول ترین روش برای لحاظ کردن ساختار همبستگی فضایی-زمانی داده ها، استفاده از تابع کوواریانس است، که معمولا نامعلوم است و باید بر اساس مشاهدات برآورد شود. این روش نیازمند محدود کننده ای از قبیل مانایی، همسانگردی و تفکیک پذیری برای میدان تصادفی است. هر چند پذیرش این فرض ها برازش مدل های معتبر به تابع کوواریانس فضایی-زمانی را تسهیل می کند، اما ضرورتا این فرض ها در مسایل کاربردی محقق نیستند. در این مقاله، به منظور تسریع محاسبه پیشگویی فضایی-زمانی برای یک میدان تصادفی نامانا و تفکیک ناپذیر، یک مدل احتمالی بر اساس تجزیه تانسور کوواریانس فضایی-زمانی مبتنی بر تجزیه تاکر مورد بررسی قرار می گیرد. سپس نحوه کاربست روش مطرح شده برای پیشگویی کردن انرژی باد براساس داده های فضایی-زمانی سرعت باد در 31 ایستگاه هواشناسی کشور ایران نشان داده می شود.
    کلیدواژگان: داده های فضایی-زمانی، کوواریانس فضایی-زمانی، میدان تصادفی نامانا و تفکیک ناپذیر، تجزیه تاکر
  • فائزه ترکیان، مسعود یارمحمدی*، غلامرضا حسامیان، محمدقاسم اکبری صفحات 446-462

    در این مقاله، یک مدل سری زمانی ناپارامتری بر اساس مشاهدات فازی ارایه شده و با استفاده از تعمیم روشنادارایا-واتسون در محیط فازی، برآورد مقادیرفازی پیش بینی شده بدست می آید. در این راستا الگوریتمی جهت دستیابی بهمرتبه اتورگرسیو و پهنای باند بهینه بیان شده و سپس معیارهایی برای بررسی ارزیابی پیش بینی معرفی می گردد. در ادامهبا استفاده از داده های واقعی کارایی مدل پیشنهادی مورد بررسی و تحلیل قرار می گیرد. همچنین تاثیر مدل سری زمانیپیشنهادی در پیش بینی با سایر مدل های سری زمانی با داده های فازی مورد مقایسه قرار می گیرد

    کلیدواژگان: مدل سری زمانی فازی ناپارامتری، روش کرنل، پهنای باند بهینه، مرتبه اتورگرسیو
  • محسن ریاحی بنی* صفحات 463-480
    در این مقاله، روشی جدید برای حل معادلات انتگرال - دیفرانسیل ولترا - فردهلم کسری غیرخطی پیشنهاد شده است. این روش تابع مجهول مسئله را توسط موجک های لژاندر تقریب می زند. برای انجام این کار، موجک های لژاندر به همراه قانون مربعی گاوس برای تبدیل مسئله به یک سیستم خطی یا غیر خطی از معادلات جبری استفاده می شود که این سیستم به سادگی با استفاده از فن های برنامه نویسی ریاضی قابل حل است. علاوه بر این، وجود و یکتایی راه حل ارایه شده با استفاده از برخی قضایا و لم ها اثبات می شود. همچنین تخمین خطا و تحلیل همگرایی این روش نشان داده خواهد شد. علاوه بر این، به منظور نشان دادن قابلیت و دقت این روش، چند مثال عددی بیان شده است و نتایج به دست آمده از این مثال ها با نتایج به دست آمده از روش های موجک چبیشف، روش توابع کلاهی توسعه یافته و نیستروم و نیوتن - کانتورویچ مقایسه شده اند.
    کلیدواژگان: موجک لژاندر، مربع سازی گاوس، روش هم محلی، معادلات انتگرال - دیفرانسیل ولترا - فردهلم کسری
  • امین شاه کرمی، بهمن غضنفری مطلق* صفحات 481-495
    عوامل بیماری زا می توانند چندین گروه از یک زیست بوم را تحت تاثیر خود قرار دهند. در این مقاله، رفتاری تصادفی مبتنی بر میانگین و واریانس در چگونگی گسترش یک عامل بیماری زا در بیماری مشترک بین گونه های مختلف جانوری در حضور جمعیت های مستعد، در معرض، مبتلا و مصون بررسی می شود. در این مدل، دوره نهفتگی که یک دوره مهم در یک اپیدمی است، نیز درنظر گرفته می شود. این مدل تمام مدل های توصیف شده درباره اپیدمی از جمله مدل های SEIR ، SIR، SIS، SI و SIRS را پوشش می دهد. همچنین در آخر، با چند مثال عددی رفتار این مدل را مشاهده خواهیم نمود.
    کلیدواژگان: مدل تعیینی، مدل تصادفی، عدد تکثیر پایه، انتگرال ایتو
  • عادله فلاح، اکبر اصغرزاده نشلی* صفحات 496-514
    در این مقاله، استباط آماری درسیستم های k مولفه ای هنگامی که داده های طول عمر سیستم، سانسور شده فزاینده نوع دو باشند مورد مطالعه قرار می گیرد. در این سیستم های منسجم، فرض می شود ساختار و اثر مشخصه سیستم مشخص و نیز توزیع طول عمر مولفه ها، نمایی باشد. دو روش محوری و بیزی برای برآورد نقطه ای پارامتر توزیع طول عمر مولفه ها معرفی می شوند و این روش ها با روش درستنمایی ماکزیمم و روش کمترین مربعات که در مقالات معرفی شده اند مقایسه می شوند. فاصله اطمینان محوری، فاصله اطمینان بیزی و فاصله اطمینان بر اساس آزمون نسبت درستنمایی محاسبه می شوند. با استفاده از شبیه سازی مونت کارلو، برآوردهای مختلف نقطه ای و فاصله ای مقایسه و مشاهده می شود که روش های محوری و بیزی عملکردبهتری در مقایسه با دیگر روش های موجود دارند. برای تشریح بیشتر روش های برآورد معرفی شده، یک مثال عددی ارایه و بحث می شود.
    کلیدواژگان: سیستم منسجم، اثر مشخصه، توزیع نمایی، برآورد به روش محوری، برآورد بیزی
  • نگار ایزدی*، محمدتقی دستجردی صفحات 515-530

    این تحقیق یک الگوریتم دو فازی را ‏برای حل مسایل بهینه سازی معرفی و مطالعه می کند که ایده اصلی آن مبتنی بر الگوریتمهای فرا ابتکاری بیگ بنگ و سیاه چاله است. در فاز اول این الگوریتم مورچه های تصنعی یک منطقه مستطیلی مشبک را در جهت های موازی اسکن می کنند که بهترین نقاط تعیین شده در مسیر مورچه ها به عنوان نقاط آغازین برای فاز دوم این الگوریتم استفاده می شوند. در فاز دوم، الگوریتم های بیگ بنگ و سیاه چاله سعی در بررسی جواب های دقیقتر در همسایگی نقاط آغازین با کاهش شعاع همسایگی دارند. مثالهای عددی تایید می کنند که این الگوریتم قادر است حواب بهینه را با دقت مطلوب و هزینه های محاسباتی کمتری به دست آورد.

    کلیدواژگان: بهینه سازی، الگوریتم های مکاشفه ای، الگوریتم سیاه چاله، الگوریتم بیگ بنگ
  • هادی بصیرزاده*، میلاد حبیبی نیا صفحات 531-557
    هدف این مقاله، ارایه یک روش جدید برای حل شبکه های حمل ونقل چندکالایی و کران دار در مسایل بهینه سازی است.شبکه های حمل و نقل چندکالایی و کران دار با هدف کمینه سازی کل هزینه حمل و نقل کالا در شبکه ، یک موضوع مهم و پرکاربرد در مسایل بهینه سازی است.دو ویژگی بسیار مهم و کلیدی چند کالایی و کراندار در مقالات مختلف مورد بررسی قرار گرفته و الگوریتم هایی برای حل آن ارایه نموده اند.ما بر پایه روش سیمپلکس شبکه ، روشی ابتکاری را بدون هرگونه پیچیدگی برای به دست آوردن جواب مسایل شبکه های حمل ونقل چندکالایی و کران دار ارایه می دهیم .در پایان ، کارایی این روش با چند مثال عددی نشان داده شده است.
    کلیدواژگان: بهینه سازی، شبکه جریان چندکالایی، مسئله حمل و نقل کران دار
  • حسین پاشا زانوسی*، احمد پوردرویش حیدری، اکبر اصغرزاده نشلی صفحات 558-572

    در این پژوهش قصد داریم به برآورد قابلیت اعتماد تنش-مقاومت در سیستم های چندمولفه ای وقتی متغیرهای تنش و مقاومت از توزیع تاپ-لیون توانی برخوردار هستند، بپردازیم. این سیستم از مولفه ی مقاومت مستقل و هم توزیع تشکیل شده است و هر یک از مولفه ها در معرض تنش یکسان قرار می گیرند و در صورتی که حداقل تا از متغیرهای مقاومت، بزرگتر از متغیر تنش باشند، فعال خواهد بود. قابلیت اعتماد سیستم از دو دیدگاه کلاسیک و بیزی در دو حالت برآورد می شود. در حالت اول فرض می شود که پارامترهای شکل اول یکسان و پارامترهای شکل دوم متفاوت هستند و در حالت دوم، پارامتر شکل اول را یکسان و معلوم در نظر می گیریم. در پایان، یک مطالعه ی شبیه سازی برای مقایسه ی عملکرد برآوردگرها و یک مجموعه از داده های واقعی به منظور کاربرد روش ها ارایه شده است.

    کلیدواژگان: قابلیت اعتماد تنش-مقاومت چندمولفه ای، توزیع تاپ-لئون توانی، برآورد بیز
  • ابراهیم عباسی*، سپیده نصراصفهانی، کمال خلیل پور صفحات 573-584

    فرض کنید $H (mathbb{D})‎$‎‎‎‎‎‎مجموعه تمام توابع تحلیلی روی‎‎‎$mathbb{D}$‏،‎ $u,vin H(mathbb{D})‎$و تابع تحلیلی$‎psi‎$‎‎یک‎‎ خودنگاشت‎‎‎‎$‎(‎psi(mathbb{D}‎)subset ‎mathbb{‎D}‎‎)‎$‎‎باشد. عملگر استویچ شارما $T_{u,v,psi}‎$‎‎به صورت زیر تعریف می شود‎begin{align*}‎‎T_{u‎, ‎v‎, ‎psi}f(z) = u(z) f{(psi(z))}‎+ ‎v(z) f'(psi(z))‎ ,‎quad fin H (mathbb{D})‎, ‎quad zin mathbb{D}‎.‎end{align*}‎‎‎‎در این مقاله کرانداری و فشردگی عملگراستویچ شارما را از فضای بسوف به فضای زیگموند مورد بررسی‎ قرار می دهیم و شرط‎ های معادلی برای کرانداری و فشردگی عملگر مذکور ارایه خواهیم داد.

    کلیدواژگان: کرانداری، فشردگی، فضای بسوف، فضای زیگموند، عملگر استویچ شارما
  • ربابه اسلامی* صفحات 585-610
    رتبه بندی واحدهای تصمیم گیرنده دومرحله ای کارا یکی از مباحث مهم در تحلیل پوششی داده های شبکه می باشد که تاکنون روش های زیادی در این زمینه ارایه شده است. ولی هر یک از این روش ها دارای حداقل یکی از این ایرادات اند: غیرخطی بودن، پیچیدگی محاسباتی بالا، عدم تمایز بین واحدهای تصمیم گیرنده دومرحله ای کارای قوی و ضعیف، اندازه گیری کارایی های متفاوت برای هر یک از واحدهای تصمیم گیرنده دومرحله ای، عدم در نظر گرفتن ساختار داخلی واحدهای تصمیم گیرنده دومرحله ای در محاسبه کارایی و رتبه بندی آنها و اختصاص رتبه های یکسان به واحدهای تصمیم گیرنده دومرحله ای کارا. از این رو، به منظور حل این ایرادات، این مطالعه روشی بر پایه تحلیل پوششی داده های شبکه برای رتبه بندی واحدهای تصمیم گیرنده دومرحله ای کارای راسی با ساختار سری، پیشنهاد می دهد. این روش پیشنهادی، بر اساس حذف این واحدهای تصمیم گیرنده دومرحله ای از مجموعه مرجع و ارزیابی کارایی واحدهای دو مرحله ای ناکارا بر مبنای نرم اقلیدسی است. سرانجام، دو مثال عددی و کاربردی به منظور شفاف سازی روش پیشنهادی ارایه می گردند.
    کلیدواژگان: تحلیل پوششی داده های شبکه، فرایندهای دومرحله ای با ساختار سری، رتبه بندی، کارای راسی، کارایی
|
  • Hedieh Eftekhari Moodi, Hadi Alizadeh Noughabi *, Mohammad Khorashadizadeh Pages 400-414

    In this article, we first investigate some extensions of Kullback-Leibler information and theirproperties. Then, we consider the moment constraints for the maximum distribution of cumulative residualentropy and investigate the relationship between the cumulative residual Kullback-Leibler information(CRKL) and cumulative residual entropy (CRE). We also discuss the methods for estimating the scaleparameter of Rayleigh distribution and provide two estimation methods. In the following we use cumulativeresidual Kullback-Leibler information as a goodness of fit test statistic. Then we compute the criticalvalues and the power of proposed tests and compare the power values with with the power of other tests.Finally, we apply the tests for a real data set.

    Keywords: Goodness of fit test, Cumulative residual entropy, Kullback-Leibler information, Cumulative residual Kullback-Leibler information, Power of test, Mont Carlo simulation
  • Parvane Atashpeykar *, Ali Haji Badali Pages 415-432

    In this paper, we classify three-dimensional super-Einstein Lorentzian Lie groups as homogeneous manifolds. For this, at first level we present a complete classification of Einstein Lorentzian Lie groups, then we complete this classification by super-Einstein condition. For some of the geometric descriptions of the classification, we study the Einstein-like conditions, that is, the Killing and Codazzi conditions, on the three-dimensional super-Einstein Lorentzian Lie groups. Finally, we present the three-dimensional super-Einstein curvature homogeneous Lorentzian manifolds of order one, for non-homogeneous examples.

    Keywords: Lie group, Super-Einstein, Codazzi, Killing, Curvature homogeneous up to order one
  • Mohsen Mohammadzadeh *, Samira Saadati Pages 433-445
    In spatio-temporal data analysis, the most common way to consider the spatio-temporal correlation structure of data is to use the covariance function, which is usually unknown and estimated based on observations. This method requires constraints such as stationarity, isotropy and separability for the random field. Although the acceptance of these hypotheses facilitates the fitting of valid models to the spatio-temporal covariance function, they are not necessarily realistic in applied problems. In this paper, to expedite the calculation of spatio-temporal prediction for a non-stationary and non-separable random field, a possible model based on spatial-temporal covariance tensor analysis based on Tucker analysis is investigated. Then, we show the proposed method for predicting wind energy based on spatio-temporal wind speed data at 31 weather stations in Iran.
    Keywords: Spatio-temporal data, Spatio-Temporal Covariance, Non-stationary, Non-separable Random Field, Tucker Decomposition
  • Faezeh Torkian, Masoud Yarmohammadi *, Gholamreza Hesamian, MohammadGhasem Akbari Pages 446-462

    In this paper, a nonparametric time series model based on fuzzy observations is presented.Fuzzy prediction values are estimated using the generalization of the Nadaraya-Watson method in a fuzzy environment. An algorithm for achieving autoregressive order and optimal bandwidth is stated and then criteria are introduced to evaluate the prediction values. In the following, the performance of the proposed model is examined and analyzed using real data. The effectiveness of the proposed model is also compared with the other time series models with fuzzy data.

    Keywords: Fuzzy nonparametric time series, kernel method, optimal bandwidth, autoregressive order
  • Mohsen Riahi Beni * Pages 463-480
    In this work, we propose a novel technique for solving the nonlinear fractional Volterra-Fredholm integro-differential equations (FVFIDEs). This method approximates the unknown function with the Legendre wavelets. To do this, the Legendre wavelets are used in conjunction with the quadrature rule for converting the problem into a linear or nonlinear system of algebraic equations which can be easily solved by applying the mathematical programming techniques. Furthermore, the existence and uniqueness of the solution are proved by preparing some theorems and lemmas. Also, the error estimate and convergence analysis of the method will be shown. Moreover, some examples are presented and their results are compared to the results of Chebyshev wavelet, modification of hat functions, NystrÖm and Newton-Kantorovitch methods to show the capability and accuracy of this scheme.
    Keywords: Legendre wavelet, Gaussian quadrature, Collocation method, fractional Volterra-Fredholm integro-differential equations
  • Amin Shahkarami, Bahman Ghazanfari * Pages 481-495
    Pathogenic factors can affect several groups of an epidemic. In this paper, by using the Brownian motion, an Ito stochastic differential equation is presented to express the stochastic behavior of an infected disease based on mean and variance. The model includes different species of population with the presence of suspected, exposed, infected and immune types. The model covers all the previous models including SI, SIS, SIR, SEIR, and SIRS. Also, the incubation, an important period in the epidemic, is considered. Finally, a few numerical examples of this model's behavior are presented.
    Keywords: Deterministic model, Stochastic model, Basic reproduction number, Itô, integral
  • Adeleh Fallah, Akbar Asgharzadeh * Pages 496-514
    In this paper, statistical inference is considered for k-component coherent systems, when the system lifetime data is progressively type-II censored. In these coherent systems, it is assumed that the system structure and system signature are known and the component lifetime distribution is exponential. Pivotal and Bayesian methods are introduced for point estimation of the component lifetime parameter, and these methods are compared with the maximum likelihood and the least squares methods existing in the literature. Pivotal confidence interval, Bayesian confidence interval and confidence interval based on the likelihood ratio test are computed. Using Monte Carlo simulations, different point and interval estimates are compared and it is observed that pivotal and Bayesian methods perform better than other existing estimation methods.
    Keywords: Coherent system, System signature, Exponential distribution, Estimation based on pivotal quantity, Bayesian estimation
  • Negar Izadi *, MohammadTaghi Dastjerdi Pages 515-530

    This research proposes a two-phase algorithm whose main idea is based on meta heuristic algorithms, Big Bang and Black Hole. In the first phase of this algorithm, the artificial ants scan the reticulated rectangular region in parallel directions. The best points in the ant’s navigations are used as starting points for the second stage of this algorithm. Big Bang and Black Hole algorithms, as an exploitation phase, try to investigate more accurate answers in the neighborhood of the starting points by reducing the neighborhood radius. Numerical examples confirm that this algorithm is capable to achieve an optimal solution with the desired accuracy and low computational costs.

    Keywords: Meta heuristic algorithm, Black Hole algorithm, Big Bang- Big Crunch method
  • Hadi Basirzadeh *, Milad Habibinia Pages 531-557
    The purpose of this paper is to present a new method for solving multi-commodity and bounded transportation networks in optimization problems.Multi-commodity and bounded transport networks with the aim of minimizing the total cost of transporting goods in the network, is an important and widely used issue in optimization problems.Two very important and key features of multi-commodities and bounded are examined in different articlesand have provided algorithms to solve it.We are ,based on the network simplex method, offer an innovative method without any complexity to obtain the solutions of multi-commodity and bounded transportation networks problems. At the end, , the efficiency of this method is shown with some numerical examples.
    Keywords: Optimization, Multi Commodity Network flows, Bounded transportation problem
  • Hossein Pasha Zanoosi *, Ahmad Pourdarvish, Akbar Asgharzadeh Pages 558-572

    In this study, we consider the statistical inference of multicomponent stress-strength reliability when stress and strength variables follow power Topp-Leone distributions. This system has independent and identically distributed strength components and each component is exposed to a common stress and is reliable if at least out of strength variables exceed the stress variable. The reliability of the system is estimated in view of classical and Bayesian in two cases. In the first case, we suppose that the first shape parameters are same and second shape parameters are different and in the second case, it is assumed that the common first shape parameter is known. Finally, a simulation study is performed to compare the performances of the estimators and one data set is presented for the application of methods.

    Keywords: Multicomponent stress-strength reliability, Power Topp-Leone distribution, Bayesian estimation
  • Ebrahim Abbasi *, Sepide Nasresfahani, Kamal Khalilpour Pages 573-584

    Let‎ $H(mathbb{D})‎$ ‎be ‎the ‎space ‎of ‎all ‎analytic ‎functions ‎on‎ ‎$mathbb{D}‎$. ‎For ‎‎$‎u,vin H(mathbb{D})‎$ ‎and ‎self-map ‎‎$‎psi‎(‎psi(mathbb{D}‎)subset ‎mathbb{‎D}‎‎)‎$‎‎‎ the‎ Stevi' c-Sharma ‎type ‎operator ‎is ‎defined ‎as ‎follows‎‎begin{align*}‎‎T_{u‎, ‎v‎, ‎psi}f(z) = u(z) f{(psi(z))}‎+ ‎v(z) f'(psi(z))‎ ,‎quad fin H(mathbb{D} )‎, ‎quad zin mathbb{D}‎.‎end{align*‎}‎‎In ‎this ‎paper, ‎we ‎study ‎boundedness ‎and ‎compactness ‎of‎ Stevi' c-Sharma ‎type ‎‎operator ‎from Besov space into Zygmund ‎space ‎and ‎we ‎obtain ‎some ‎equivalence ‎conditions ‎for‎ boundedness ‎and ‎compactness ‎of ‎such ‎operator.

    Keywords: Boundedness&lrm, Compactness&lrm, Besov &lrm, space&lrm, Zygmund Space, &lrm, Stevi', c-Sharma &lrm, type &lrm, operator
  • Robabeh Eslami * Pages 585-610
    Ranking of efficient two-stage decision-making units (DMUs) is one of the most important issues in network data envelopment analysis (DEA), which hitherto many methods have been presented in this context. However, each of these methods has at least one of these drawbacks: Non-linearity, High computational complexity, Lack of distinction between strong and weak efficient two-stage DMUs, Measuring different efficiencies for each of two-stage DMUs, Failure to consider the internal structures of two-stage DMUs in calculating efficiency and ranking them, and Assigning the same ranks to the efficient two-stage DMUs. Hence, to tackle these problems, this study proposes a network DEA-based method to rank the extremely efficient two-stage DMUs with a series structure. The proposed method is based on eliminating these efficient two-stage DMUs from the reference set and evaluating the efficiency of inefficient two-stage DMUs using the Euclidean norm. Finally, two numerical and empirical examples are presented to illustrate the use of the proposed method.
    Keywords: Network data envelopment analysis (DEA), Two-stage series processes, ranking, Extremely efficient, Efficiency